Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Wir hatten sozusagen Ausgehen davon, dass wir uns schon mal das Gradientenverfahren für
quadratische Probleme angeschaut hatten, versucht, das zu einem möglichst allgemeinen Abstiegsverfahren
zu verallgemeinern. Zu verallgemeinern bedeutet zum einen die Richtung, in der gesucht wird und die Art,
wie dann entlang dieser Richtung die Itterierte verbessert wird. Das Optimale ist natürlich,
dass man eindimensional minimiert, so man das kann. Im quadratischen Fall kann man das exakt machen,
im Allgemeinen nur unter erheblichen Zusatzbedingungen, zum Beispiel der
Unimodalität, da gibt es ein effizientes Verfahren, was wir gesehen haben. Im Allgemeinen
wird man sich darauf beschränken, wirklich abzusteigen. Da haben wir verschiedene
schrittweiten Strategien, jetzt das letzte Mal gesehen. Und die allgemeine Bedingung auf der
anderen Seite an die Richtung war, dass es sich um eine Abstiegsrichtung handelt und eine
Abstiegsrichtung liegt natürlich insbesondere dann vor, wenn wir in die Richtung des negativen
Gradienten gehen. Das heißt also, dieses Gradientenverfahren oder dieses Verfahren des
steidsten Abstiegs, aber jetzt im allgemeinen Fall unter der Voraussetzung, dass das Funktional nur
einmal stetig differenzierbar ist, das wollen wir uns jetzt noch mal anschauen und sozusagen
die Sätze spezifizieren, die wir jetzt schon gesehen haben. Die erste Begrifflichkeit
für allgemeiner das, was wir dann im Allgemeinen beim differenzierbaren Fall wieder als negativen
Gradienten erkennen werden, aber wir machen das jetzt gleich ein bisschen allgemeiner und
eröffnen damit den Weg zu einer recht interessanten Variante, die dann unter dem Namen Variable
Metrikenverfahren heute noch eine Rolle spielen wird. Also die Situation sei die folgende,
wir betrachten eine Norm auf dem Rn, wir haben unser Funktional, wie auch immer das heißt,
klein F oder groß F. Für die Definition des Begriffes brauchen wir nur die Richtungsdifferenzierbarkeit.
Es wird fast schon ein bisschen spitzfindig, aber in alle Richtungen, da ist zwar noch
ein minimaler Unterschied zur Differenzierbarkeit, aber so schrecklich viel nun auch nicht.
So, und dann nennen wir eine Richtung, die Richtung des steilsten Abstiegs bezüglich
der Norm, das ist das, was jetzt speziell dazu kommt, was den Begriff etwas allgemeiner
macht, das mit der Richtungsdifferenzierbarkeit, das ist nur Verzierung, da hätten wir auch
gleich Differenzierbarkeit voraussetzen können. Also wir nennen eine Richtung D, also ein
D und gleich Null, D natürlich aus dem Rn, eine Richtung des steilsten Abstiegs bezüglich
der Norm, also in diesem Punkt x, wo wir sind, bezüglich der vorgelegten Norm, das muss nur
eine spezielle Norm sein, damit wir dann wirklich aber was ausrechnen können, werden wir sehen,
dass wir von einem Skalarprodukt dann erzeugte Normen brauchen, aber da gibt es ja auch mehr
als nur die sozusagen übliche euklidische Norm, die einem vielleicht immer sofort einfällt.
Was soll gelten? Wir wollen haben, dass die Richtungsableitung an der Stelle x in die auf
1 normierte Länge D, da kommt also jetzt an der Stelle die Norm rein, da unterscheiden
sich die Begriffe bezüglich der Norm. Der auf 1 normierten Länge D, das soll wirklich
die minimale, das sind ja alles, wenn wir Abstiegsrichtungen haben, sind das negative
Zahlen und das soll jetzt das Minimum sein, soll also in dem Sinn den größten Abstieg
darstellen, bezüglich aller Richtungen D mit Länge 1. Das ist klar, kleiner Null, damit
wir überhaupt einen Abstieg haben. Okay. Wie ist das jetzt, ist in diesem Sinne das, was
wir allgemein eben als die Richtung des steilsten Abstiegs kennengelernt haben, nämlich der
negative Gradient, ist das eine Richtung steilsten Abstiegs und wenn ja, bezüglich welcher Norm?
Das ist so und zwar bezüglich der eben euklidischen Norm, der vom Standard Skalarprodukt erzeugten
Norm. Das sagt der nächste Satz aus, wenn f differenzierbar ist in x und wir sind noch
nicht, wir sind nicht in einem stationären Punkt, das heißt der Gradient von f von x
ist ungleich Null, dann ist die durch den negativen Gradienten gegebene Richtung, die
Richtung des steilsten Abstiegs in x bezüglich der euklidischen Norm. Das ist die Aussage.
Oder etwas genauer, wir haben ja die Richtung hier, selbst ist er nicht normiert, jedes
positive Vielfache einer Richtung ist natürlich genauso gut wie die Richtung selbst, das
ist die Aussage lautet genau. Dann ist d ungleich Null natürlich Richtung des steilsten Abstiegs
Presenters
Zugänglich über
Offener Zugang
Dauer
01:28:39 Min
Aufnahmedatum
2013-07-08
Hochgeladen am
2013-08-08 01:01:15
Sprache
de-DE